AI资讯新闻榜单内容搜索-LlaMA 3.1-

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LlaMA 3.1-
以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

大型语言模型 (LLM) 在各种自然语言处理和推理任务中表现出卓越的能力,某些应用场景甚至超越了人类的表现。然而,这类模型在最基础的算术问题的表现上却不尽如人意。

来自主题: AI技术研报
4251 点击    2024-10-18 13:54
「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「开源新王」Reflection 70B,才发布一个月就跌落神坛了? 9月5日,Hyperwrite AI联创兼CEO Matt Shumer在X上扔出一则爆炸性消息—— 用Meta的开源Llama 3.1-70B,团队微调出了Reflection 70B。

来自主题: AI资讯
2945 点击    2024-10-07 13:57
Meta浙大校友让评估模型「自学成才」,数据全合成无需人工标注,训练Llama 3 70B超过405B

Meta浙大校友让评估模型「自学成才」,数据全合成无需人工标注,训练Llama 3 70B超过405B

Meta浙大校友让评估模型「自学成才」,数据全合成无需人工标注,训练Llama 3 70B超过405B

随着LLM不断迭代,偏好和评估数据中大量的人工标注逐渐成为模型扩展的显著障碍之一。Meta FAIR的团队最近提出了一种使用迭代式方法「自学成才」的评估模型训练方法,让70B参数的Llama-3-Instruct模型分数超过了Llama 3.1-405B。

来自主题: AI资讯
4352 点击    2024-08-26 09:52